3.构建以普遍服务受益人为核心的公众参与机制。
在民法上,有独立经费的机关和承担行政职能的法定机构属于机关法人。如果没有地方,就无所谓中央,也无所谓国家。
除要保持社会稳定外,地方法治工作更重要的意义在于通过法治的方式吸引发展资源,甚至主导市场竞争。摘要: 实现建设社会主义法治国家的宪法目标,地方的意义不可替代。国家的持续繁荣建立在对央地关系的有预期的调整基础之上。比如,运动式的法治工作方式是在以人治的方式推动法治,[9]然而,运动与法治相结合有利于凸显法治工作在当前和今后一个时期的重要性,能够超越科层制度的组织失败,达到纠偏、规范边界的意图,[10]有助于摆脱常态下的僵化、低效等问题。同时,地方因具有公法人团体的地位,拥有相对完整的利益诉求,其与外部主体的产权关系是明确的,能够适当而有效地履行特定职责,并独立承担收益或损失。
为此,必须重视地方的独特功能,从制度上塑造和规范地方自主。[37]周黎安:行政发包制,《社会》2014年第6期,第15页。这使得传统—权利格局严重失衡,亟需矫正。
在这一步,被告往往会以商业必要性作为算法决策的理由。无论算法的逻辑构架多么复杂,都必须由算法使用者作出正常人能够理解的说明。(24)从审查与评估的方法上看,它主要采取的是排除敏感属性的做法。它重点审查了雇主算法决策中对员工的要求与工作绩效的关系,并认为该雇佣算法决策中高中文凭的要求与劳动者素质的主张与工作绩效没有必然的关系。
(55) 就可替代算法决策评估而言,法院认为即使算法决策者证明其算法决策与商业需要有关,也不能排除算法歧视的可能性,除非没有其他的算法能够替代这种对原告产生不利后果的算法决策。在不同待遇审查模式中,法院会对算法使用者的主观意图进行重点审查,并要求原告提出证据来证明算法使用者存在明确的歧视性意图。
它要求医院不得仅仅通过某项算法决策就来预测患者病情并决定如何用药。为了对算法歧视行为进行规制,它在强化告知且同意的隐私权保护框架的前提下,构建了数据隐私侵权的事后审查制度,并首次提出了隐私设计的概念,要求企业将隐私保护纳入其日常业务实践。倘若被告提出算法决策造成差别性影响具有商业必要性的理由,原告需要提出被告有可替代算法程序以减少不利影响。法院要求Zillow公司对算法进行解释,并且强调算法决策的过程是能被有效解释的。
价格歧视和特定推送是此类歧视的典型表现。倘若只用国家正式的法律机制进行算法歧视的治理,极可能使治理效果大打折扣,因为法律治理的逻辑和技治治理的逻辑存在较大差异,而且,政府和法院在知识上也存在缺陷与不足。第一,民主化数据收集。商家可以利用这些数据推测出用户的偏好,并有针对性地推送广告。
差异性影响主要依赖于群体证据而非个体证据。因此,法院判决谷歌公司应当充分尊重冈萨雷斯被遗忘权,取消冈萨雷斯这一姓名与冈萨雷斯因陷入债务困难导致房屋被拍卖之间建立的链接。
数据挖掘公司也可以挖掘出可供身份验证、安全检查,甚至控制汽车流量等使用的相关信息。在该案中,法院之所以在审查中差异性影响的审查模式,原因主要在于算法涉及较为高深的专业知识,被歧视者往往不具备理解算法的能力。
(54)See Griggs v.Duke Power Co.,401 U.S.424,432(1971). (55)Id. (56)See Jennifer L.Peresie,Toward a Coherent Test for Disparate Impact Discrimination,84 Ind.L.J.773,774(2009). (57)See Maayan Perel Niva Elkin-Koren,Black Box Tinkering:Beyond Disclosure in Algorithmic Enforcement,69 Fla.L.Rev.181,184(2017). (58)See Robert L.Bevan,Remarks,2 Ann.Rev.Banking L.123,127(1983). (59)See John Frank Weaver,Artificial Intelligence and Governing the Life Cycle of Personal Data,24 Rich.J.L. Tech.2,9(2018). (60)See Lepri et al.,supra note 1,at 611-618. (61)解释权的内涵应从以下方面理解:(1)算法解释权的基本构造。从规制的空间维度来看,这些措施包括原则性规制和特定性规制方式。从本质而言,算法正逐步演变成为一种准公权力。在该案中,法院主要是从工作绩效的角度来审查商业必要性的。例如,ProPublica公司通过量刑的累犯模型证明法院把犯罪风险评估算法作为量刑指南,存在系统性歧视的问题。法院会对差异性影响、商业必要性和可替代算法决策这三个核心问题进行审查或认定。
按照此要求,算法决策者应尽可能少地获取个人信息并且缩短信息与决策结果存储的时间。(59)它认为,算法透明度的内涵主要是要求算法源代码的透明性和开放性,并以简明易懂的方式公开输出算法决策,从而确保被决策对象充分地知悉并认同算法的正当性和合理性。
它们强调算法的设计者应当遵守平等保护消费者和公民免受歧视方面的现行法律。该法案对高风险算法进行了列举式界定:一是对消费者个人信息、隐私和安全带来高风险的算法。
只有遵循食谱所设立的步骤和指令,按照要求筛选和搭配食材,才能做出指定口味的菜肴。但随着算法技术的发展,算法失范的行为经常发生,这严重侵犯了公民的权利。
在格里格斯诉杜克电力公司案中,法院就认为杜克电力公司在有关就业的算法决策中所选取的变量与该公司所要实现的商业目的并无直接的相关性。学者们和政府愈来愈意识到算法歧视的广泛存在,并认为这些新型歧视能引发一系列的社会问题、伦理问题和法律问题。这很可能会对居住在边远郊区的低收入群体构成歧视。第一,技术性脱敏(敏感性因素排除)。
这给公众和社会造成了巨大的损失。因此,必须管控好算法决策程序设计的前端,并通过对算法基础数据(主要针对杀熟型歧视)和敏感因素(主要针对特征选择型歧视)等变量的限制,达到控制歧视性算法的目的。
(二)预防性控制与结果性责任规制 从算法歧视可规制的阶段来看,它主要包括算法歧视的孕育阶段和实害阶段。佩雷尔和埃尔金科伦认为,算法在很大程度上就是一个黑箱子,普通人根本不知道算法决策是如何出来的,也不知道算法决策依据的具体数据和遵循的决策原则是什么。
为了分析的便利,本文将主要借助于美国的相关法律实践来加以展开。(三)两种审查模式的比较 算法差异性影响和不同待遇审查模式旨在实现不同的审查功能。
交易平台往往会对这些记录进行积累,并在不同的交易平台之间进行互通、共享和融合,从而形成交易的大数据。③这在一定程度上能够克服人类决策的主观性,但是它也带来了更为复杂的、隐蔽的新型歧视。假如一项算法对原告产生的不利影响大于对其他社会公众的影响时,这项算法决策就存在着歧视的可能性。为了消除算法歧视给社会带来的影响,各国政府采取了一系列的规制措施。
在司法审查层面,不同待遇审查和差异性影响审查是两种基本模式。这种歧视类型源自计算机对过往数据的深度学习。
在这种歧视的作用下,雇主会增加对非洲裔申请者犯罪背景的调查次数。(39)See MacCarthy,supra note 16,at 141. (40)See Lepri et al.,supra note 1,at 611-618. (41)Id. (42)See Stuart L.Pardau Blake Edwards,The FTC,the Unfairness Doctrine,and Privacy by Design:New Legal Frontiers in Cybersecurity,12 J.Bus. Tech.L.227,228(2017). (43)See Andrew Tutt,An FDA for Algorithms,69 Admin.L.Rev.83,113(2017). (44)See T.Kim,supra note 14,at 902-903. (45)McDonnell Douglas Corp.v.Green,411 U.S.792(1973). (46)Hazelwood Sch.Dist.v.United States,433 U.S.299,307-309(1977). (47)See,e.g.,Gay v.Waiters Dairy Lunchmens Union,694 F.2d 531,552-53(9th Cir.1982). (48)See Hazelwood Sch.Dist.,433 U.S.at 310; Int l Bhd.of Teamsters,431 U.S.at 340. (49)See,e.g.,Desert Palace,539 U.S.at 92; Price Waterhouse v.Hopkins,490 U.S.228(1989). (50)Texas Dep t of Cmty.Affairs v.Burdine,450 U.S.248,101 S.Ct.1089,67 L.Ed.2d 207(1981). (51)Price Waterhouse v.Hopkins,490 U.S.228,109 S.Ct.1775,104 L.Ed.2d 268(1989). (52)Stephanie Bornstein,Antidiscriminatory Algorithms,70 Ala.L.Rev.519,521(2018). (53)参见王夙:《人工智能发展中的算法公开能否解决算法歧视?》,载《机器人产业》2019年第3期,第21-22页。
2017年5月,美国二手房销售网站Zillow被一位房主告上法庭。旧金山市政府在2019年5月14日通过了《停止秘密监视条例》,禁止当地政府部门如警察局、治安办公室、交管部门使用人脸识别。